Suchtechnologien: RAG vs SolR

Die Retrieval-Augmented Generation (RAG) ist eine revolutionäre Technologie, die modernen KI-Chatbots und Large Language Models (LLMs) zugrunde liegt. Sie löst ein zentrales Problem reiner LLMs: die Halluzination (das Erfinden von Fakten) und die Beschränkung auf veraltetes Trainingswissen.

Retrieval-Augmented Generation (RAG): Die Technologie hinter den intelligentesten Chatbots

Die Retrieval-Augmented Generation (RAG) ist eine revolutionäre Technologie, die modernen KI-Chatbots und Large Language Models (LLMs) zugrunde liegt. Sie löst ein zentrales Problem reiner LLMs: die Halluzination (das Erfinden von Fakten) und die Beschränkung auf veraltetes Trainingswissen. RAG stellt sicher, dass die KI auf aktuellem, speziellem und verifizierbarem Wissen antwortet.

Funktionsweise von RAG
Ein RAG-System arbeitet in zwei Hauptphasen, wenn ein Nutzer eine Frage stellt:

  • Retrieval (Abruf): Die Nutzeranfrage wird verwendet, um in einer externen Wissensdatenbank (z.B. Kundendokumentation, interne Handbücher) die relevantesten Textabschnitte zu suchen.
  • Augmentation (Erweiterung): Die abgerufenen Textabschnitte werden zusammen mit der ursprünglichen Nutzerfrage an das LLM gesendet. Das Modell generiert dann eine Antwort, die direkt auf diesen Quelltexten basiert und diese zitiert.

Das Herzstück dieser Retrieval-Phase ist die Speicherung und Suche von Inhalten in Form von Vektoren.

Warum Daten in Vektoren gespeichert werden
Die Speicherung von Daten als Vektoren (Vektorisierung oder Embedding) ist der Schlüssel zur intelligenten Suche in RAG-Systemen. Was ist ein Vektor-Embedding?

Ein Vektor-Embedding ist eine numerische Darstellung (eine lange Liste von Zahlen) eines Textabschnitts (Wort, Satz oder Absatz) in einem hochdimensionalen Raum.

  • Bedeutung statt Schlüsselwort: Der Prozess verwendet spezielle neuronale Netze, um die semantische Bedeutung eines Textes zu erfassen. Das heißt, Vektoren, die sich räumlich nahe sind, repräsentieren Texte, die eine ähnliche Bedeutung haben, selbst wenn sie völlig unterschiedliche Wörter verwenden.
  • Abstand = Ähnlichkeit: Die Ähnlichkeit zwischen der Vektor-Darstellung der Nutzerfrage und den Vektoren der Dokumente kann einfach durch die Berechnung des Abstands (z.B. Kosinus-Ähnlichkeit) im Vektorraum bestimmt werden.

Beispiel: Der Satz „Ich suche nach Laptops“ wird in derselben Region des Vektorraums liegen wie der Satz „Wo finde ich Notebooks“, da beide dasselbe Konzept (tragbare Computer) behandeln.

RAG-Suche vs. Klassische Websuche (z.B. Solr)

Die Vektorsuche in RAG-Systemen bietet einen fundamentalen Vorteil gegenüber der klassischen keyword-basierten Suche, wie sie in traditionellen Suchmaschinen (z.B. Solr, Elasticsearch) zum Einsatz kommt.

MerkmalVektorsucheKlassische Suche (Solr/Elasticsearch)
SuchbasisSemantische Bedeutung (Kontext und Sinn)Schlüsselwörter (Exakter Text-Match)
BeziehungFindet Dokumente, die konzeptionell ähnlich sindFindet Dokumente, die das exakte Wort enthalten
ToleranzHohe Toleranz gegenüber Synonymen und unterschiedlichen FormulierungenGeringe Toleranz, erfordert oft komplexes Query-Tuning
ErgebnisRelevante Textabschnitte, die direkt die Frage beantwortenLange Liste von Dokumenten, die das Schlüsselwort enthalten


Der entscheidende Unterschied

Wenn ein Nutzer fragt: 

  1. "Wie kann ich einen tragbaren Rechner warten?" Solr würde hauptsächlich nach Dokumenten suchen, die die exakten Wörter "tragbar", "Rechner" und "warten" enthalten.
  2. Die Vektorsuche findet Dokumente, die "Laptop-Pflege", "Notebook-Instandhaltung" oder "Umgang mit mobilen Computern" behandeln, weil die Vektoren dieser Konzepte im Vektorraum eng beieinander liegen.

Durch diese semantische Suche kann der RAG-Bot hochrelevante, kontextbezogene Inhalte abrufen, die es dem LLM ermöglichen, eine präzise, faktenbasierte und menschenähnliche Antwort zu generieren. RAG ist damit der Schlüssel zur Überführung von LLMs von allgemeinen Sprachgeneratoren zu spezialisierten, verlässlichen Wissens-Experten.